花费 5 ms
利用docker搭建spark hadoop workbench

目的 用docker实现所有服务 在spark-notebook中编写Scala代码,实时提交到spark集群中运行 在HDFS中存储数据文件,spark-notebook中直接读取 ...

Wed Nov 29 18:51:00 CST 2017 4 2290

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM